65 research outputs found

    Hyperplane approximation for template matching

    Full text link

    Dowe really need an accurate calibration pattern?

    Get PDF
    The metrology of calibration patterns is often a real problem in computer vision to obtain a reliable estimation of the intrinsic and extrinsic parameters that model a video camera device . In order to take into account these errors a self-calibration method is described, that enables us to compute in the same time the traditional calibration parameters and the 3D geometry of the calibration pattern using a multi-images calibration algorithm . Experimental results shows that the proposed algorithm leads to reliable calibration results and proves that calibration errors no longer depend on the accuracy of calibration point measurement, but on the accuracy of calibration point detection in the image plane .Cet article soulève le problème de l'influence des erreurs introduites par la métrologie d'une mire d'étalonnage sur la détermination des paramètres intrinsèques d'un capteur vidéo. Afin de s'affranchir de ces erreurs, une approche d'autocalibrage est décrite permettant conjointement d'estimer les paramètres internes du capteur vidéo et la géométrie de la mire, au sein d'un formalisme d'étalonnage multi-images. Par la problématique qu'il soulève, cet article cotoie les approches de Shape from Motion et d'Auto-calibrage des capteurs, en gardant cependant la spécificité d'être décrit selon un formalisme photogrammétrique et donc d'intégrer implicitement les aberrations géométriques des objectifs. Nous nous sommes attachés à insister sur l'aspect descriptif de la méthode pour permettre aux lecteurs une vision globale de la mise en oeuvre du procédé

    Using a zoom lens in monocular vision for 3D reconstruction

    Get PDF
    Using a zoom Zens in monocular vision seems to be an interesting idea. The principal aim of this article is to prove that it is possible to infer 3D information from a set of images tak'en with a zoom lens . In the first part of this article, a precise study of the optical properties of such a lens gives the two following major results - The intersection between the optical axis and the image plane can be independently and accurately determined, - the pin-hole model can be used for the zoom lens only if the object-toimage distance is not considered as fixed .Then, ta explain the optical phenomena occurring during a focal length change, we show that a thick optical model must be considered. Finally, experimental results of reconstruction, from a set of real images, are given .L'utilisation d'un zoom en vision monoculaire, en vue de la reconstruction tridimensionnelle d'un univers observé, nous paraît une idée intéressante. En effet les propriétés optiques d'un objectif à focale variable permettent de déterminer, facilement et avec précision, les coordonnées de l'intersection de l'axe optique et du plan image, mais également de concevoir une reconstruction par triangulation. Dans cet article, nous montrons que l'approximation de cet objectif par le modèle sténopé nécessite de ne plus considérer la distance entre l'objet et le plan image comme un paramètre fixe. Afin d'appréhender plus globalement les phénomènes optiques mis en jeu par la variation de distance focale, il est alors nécessaire de recourir au modèle optique épai

    Human body tracking by monocular vision

    Get PDF
    This article describes a tracking method of 3D articulated complex objects (for example, the human body), from a monocular sequence of perspective images . These objects and their associated articulations must be modelled . The principle of the method is based on the interpretation of image features as the 3D perspective projections points of the object model and an iterativ e Levenberg-Marquardt process to compute the model pose in accordance with the analysed image . This attitude is filtered (Kalman filter) to predict the model pose relative to the following image of the sequence . The image features are extracted locally according to the computed prediction . Tracking experiments, illustrated in this article by a cycling sequence, have been conducted to prove the validity of the approach.Cet article décrit une méthode de suivi d'objets 3D articulés, de forme complexe telle que les membres du corps humain, à partir d'une séquence monoculaire d'images perspectives. Ces objets devront être préalablement modélisés ainsi que les articulations associées. Le principe de la méthode est basé sur l'interprétation de points caractéristiques dans l'image comme étant les projections perspectives de points 3D liés au modèle de l'objet et d'un processus itératif fondé sur la méthode de Levenberg-Marquardt pour calculer l'attitude de ce modèle conforme à l'image analysée. Cette attitude et la covariance associée sont fournies à un filtre de Kalman de haut niveau pour prédire l'attitude du modèle relative à l'image suivante de la séquence. L'extraction de primitives s'effectue localement par prise en compte de la prédiction obtenue. Des expérimentations de suivi, illustrées dans cet article par une séquence de pédalage, ont été effectuées, prouvant ainsi la validité de l'approche

    Camera calibration from spheres and grid images

    Get PDF
    From spheres images we have developed a new method for camera calibration in order to calculate its intrinsic parameters . We prove an interesting geometric propriety about ellipses extracted from images . Using the Cens geometrical distortion introduced by the optical system and searching a precise points detection for spheres images, allow us to obtain satisfactory results .A partir d'images de sphères, nous avons developpé une nouvelle méthode d'étalonnage de caméra permettant de déterminer ses paramètres intrinsèques. Nous mettons en évidence une propriété géométrique intéressante concernant les primitives images utilisées. La prise en compte de la distorsion géométrique du système optique et une recherche au niveau de la détection des points de contour associés à une image de sphère nous ont permis d'arriver à de bons résultat

    Localization with monocular vision for autonomous navigation

    Get PDF
    We present a method for computing the localization of a mobile robot with reference to a learning video sequence. The robot is first guided on a path by a human, while the camera records a monocular learning sequence. Then a 3D reconstruction of the path and the environment is computed off line from the learning sequence. The 3D reconstruction is then used for computing the pose of the robot in real time in autonomous navigation. Results from our method are compared to the ground truth measured with a differential GPS or a rotating platform.Nous présentons une méthode pour déterminer la localisation d'un robot mobile par rapport à une séquence vidéo d'apprentissage. Dans un premier temps, le robot est conduit manuellement sur une trajectoire et une séquence vidéo de référence est enregistrée par une seule caméra. Puis un calcul hors ligne nous donne une reconstruction 3D du chemin suivi et de l'environnement. Cette reconstruction est ensuite utilisée pour calculer la pose du robot en temps réel dans une phase de navigation autonome. Les résultats obtenus sont comparés à la vérité terrain mesurée par un GPS différentiel ou une plate-forme rotative graduée

    Deformable model to recover circular generalized cylinders

    Get PDF
    This paper describes a new approach to recover Circular Generalized Cylinders (CGC) using deformable models . This class includes many objects present on industrial site (pipes) or on the natural environment (human leg, tree trunk) . First, we propose a modeling algorithm of objects with constant cross-section radius, called Uniform Circular Generalized Cylinder s (UCGC). With this assumption, reconstruction is possible from a single view of the object. In the case of a single image, the cross - section radius cannot be estimated . If this radius is unknown, reconstruction is achieved up to a scale factor. The model 3D axis i s parametrized by a B-spline curve . After a coarse initialization, the model changes shape to fit the object contour detected in the studied image. Using different views of the object, the previous approach is adapted to Circular Generalized Cylinders (cross-section radiu s variations are now permitted) . No assumption is made on the axis geometry nor on the way the radius varies . In order to be sufficiently adaptative to the large range of object shape belonging to this class, we propose using two independent B-splin e functions to model respectively axis and cross-section radii variations . These algorithms use the geometrical properties of the occluding contours given by the perspective projection of the objects. It i s the first attempt to solve this problem by taking into account this accurate projective model .Dans cet article, nous proposons une méthode de reconstruction des cylindres généralisés à section circulaire par modèle déformable. Tout d'abord, nous formulons l'hypothèse que les sections de l'objet sont de rayon constant. Nous parlons alors de Cylindres Généralisés Circulaires Uniformes (CGCU). Si le rayon est connu a priori, cette hypothèse permet de retrouver l'axe 3D de l'objet, paramétré par une fonction B-Spline, à partir d'une seule vue, sinon la reconstruction est faite à un facteur d'échelle près. Après une initilisation grossière, le modèle est déformé itérativement jusqu'à ce que sa forme devienne cohérente avec les contours extraits de l'image. Nous montrerons ensuite que l'exploitation de différentes vues d'un même objet permet d'adapter notre approche à la reconstruction de Cylindres Généralisés Circulaires (CGC), objets constitués de sections circulaires à rayon non-constant. Aucune hypothèse a priori n'est faite sur la géométrie de l'axe ou sur la façon dont varie le rayon des sections. Afin de pouvoir s'adapter au plus grand nombre d'objets appartenant à cette classe, deux fonctions B-Spline indépendantes sont utilisées pour paramétrer l'axe et la fonction de variation du rayon

    Accurate and linear time pose estimation from points and lines

    Get PDF
    The final publication is available at link.springer.comThe Perspective-n-Point (PnP) problem seeks to estimate the pose of a calibrated camera from n 3Dto-2D point correspondences. There are situations, though, where PnP solutions are prone to fail because feature point correspondences cannot be reliably estimated (e.g. scenes with repetitive patterns or with low texture). In such scenarios, one can still exploit alternative geometric entities, such as lines, yielding the so-called Perspective-n-Line (PnL) algorithms. Unfortunately, existing PnL solutions are not as accurate and efficient as their point-based counterparts. In this paper we propose a novel approach to introduce 3D-to-2D line correspondences into a PnP formulation, allowing to simultaneously process points and lines. For this purpose we introduce an algebraic line error that can be formulated as linear constraints on the line endpoints, even when these are not directly observable. These constraints can then be naturally integrated within the linear formulations of two state-of-the-art point-based algorithms, the OPnP and the EPnP, allowing them to indistinctly handle points, lines, or a combination of them. Exhaustive experiments show that the proposed formulation brings remarkable boost in performance compared to only point or only line based solutions, with a negligible computational overhead compared to the original OPnP and EPnP.Peer ReviewedPostprint (author's final draft

    Robust 3D pose estimation and efficient 2D region-based segmentation from a 3D shape prior

    Get PDF
    ©2008 Springer-Verlag Berlin Heidelberg. The original publication is available at www.springerlink.com.Presented at the 10th European Conference on Computer Vision, Marseille, France, October 12-18, 2008.DOI: 10.1007/978-3-540-88688-4_13In this work, we present an approach to jointly segment a rigid object in a 2D image and estimate its 3D pose, using the knowledge of a 3D model. We naturally couple the two processes together into a unique energy functional that is minimized through a variational approach. Our methodology differs from the standard monocular 3D pose estimation algorithms since it does not rely on local image features. Instead, we use global image statistics to drive the pose estimation process. This confers a satisfying level of robustness to noise and initialization for our algorithm, and bypasses the need to establish correspondences between image and object features. Moreover, our methodology possesses the typical qualities of region-based active contour techniques with shape priors, such as robustness to occlusions or missing information, without the need to evolve an infinite dimensional curve. Another novelty of the proposed contribution is to use a unique 3D model surface of the object, instead of learning a large collection of 2D shapes to accommodate for the diverse aspects that a 3D object can take when imaged by a camera. Experimental results on both synthetic and real images are provided, which highlight the robust performance of the technique on challenging tracking and segmentation applications
    • …
    corecore